Udostępnij za pośrednictwem


az ml model

Uwaga

Ta dokumentacja jest częścią rozszerzenia azure-cli-ml dla interfejsu wiersza polecenia platformy Azure (wersja 2.0.28 lub nowsza). Rozszerzenie zostanie automatycznie zainstalowane przy pierwszym uruchomieniu polecenia az ml model . Dowiedz się więcej o rozszerzeniach.

Zarządzanie modelami uczenia maszynowego.

Polecenia

Nazwa Opis Typ Stan
az ml model delete

Usuń model z obszaru roboczego.

Numer wewnętrzny Ogólna dostępność
az ml model deploy

Wdrażanie modeli z obszaru roboczego.

Numer wewnętrzny Ogólna dostępność
az ml model download

Pobierz model z obszaru roboczego.

Numer wewnętrzny Ogólna dostępność
az ml model list

Wyświetlanie listy modeli w obszarze roboczym.

Numer wewnętrzny Ogólna dostępność
az ml model package

Spakuj model w obszarze roboczym.

Numer wewnętrzny Ogólna dostępność
az ml model profile

Modele profilów w obszarze roboczym.

Numer wewnętrzny Ogólna dostępność
az ml model register

Rejestrowanie modelu w obszarze roboczym.

Numer wewnętrzny Ogólna dostępność
az ml model show

Pokaż model w obszarze roboczym.

Numer wewnętrzny Ogólna dostępność
az ml model update

Aktualizowanie modelu w obszarze roboczym.

Numer wewnętrzny Ogólna dostępność

az ml model delete

Usuń model z obszaru roboczego.

az ml model delete --model-id
                   [--path]
                   [--resource-group]
                   [--subscription-id]
                   [--workspace-name]
                   [-v]

Parametry wymagane

--model-id -i

Identyfikator modelu do usunięcia.

Parametry opcjonalne

--path

Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az ml model deploy

Wdrażanie modeli z obszaru roboczego.

az ml model deploy --name
                   [--ae]
                   [--ai]
                   [--ar]
                   [--as]
                   [--at]
                   [--autoscale-max-replicas]
                   [--autoscale-min-replicas]
                   [--base-image]
                   [--base-image-registry]
                   [--cc]
                   [--ccl]
                   [--cf]
                   [--collect-model-data]
                   [--compute-target]
                   [--compute-type]
                   [--cuda-version]
                   [--dc]
                   [--description]
                   [--dn]
                   [--ds]
                   [--ed]
                   [--eg]
                   [--entry-script]
                   [--environment-name]
                   [--environment-version]
                   [--failure-threshold]
                   [--gb]
                   [--gbl]
                   [--gc]
                   [--ic]
                   [--id]
                   [--key-name]
                   [--key-version]
                   [--kp]
                   [--ks]
                   [--lo]
                   [--max-request-wait-time]
                   [--model]
                   [--model-metadata-file]
                   [--namespace]
                   [--no-wait]
                   [--nr]
                   [--overwrite]
                   [--path]
                   [--period-seconds]
                   [--pi]
                   [--po]
                   [--property]
                   [--replica-max-concurrent-requests]
                   [--resource-group]
                   [--rt]
                   [--sc]
                   [--scoring-timeout-ms]
                   [--sd]
                   [--se]
                   [--sk]
                   [--sp]
                   [--st]
                   [--subnet-name]
                   [--subscription-id]
                   [--tag]
                   [--timeout-seconds]
                   [--token-auth-enabled]
                   [--tp]
                   [--vault-base-url]
                   [--version-name]
                   [--vnet-name]
                   [--workspace-name]
                   [-v]

Parametry wymagane

--name -n

Nazwa wdrożonej usługi.

Parametry opcjonalne

--ae --auth-enabled

Określa, czy włączyć uwierzytelnianie klucza dla tej usługi sieci Web. Wartość domyślna to False.

--ai --enable-app-insights

Określa, czy włączyć usługę AppInsights dla tej usługi sieci Web. Wartość domyślna to False.

--ar --autoscale-refresh-seconds

Jak często autoskalator powinien próbować skalować tę usługę sieci Web. Wartość domyślna to 1.

--as --autoscale-enabled

Określa, czy włączyć skalowanie automatyczne dla tej usługi sieci Web. Wartość domyślna to True, jeśli num_replicas to Brak.

--at --autoscale-target-utilization

Wykorzystanie docelowe (w procentach na 100) autoskalator powinien podjąć próbę zachowania dla tej usługi sieci Web. Wartość domyślna to 70.

--autoscale-max-replicas --ma

Maksymalna liczba kontenerów do użycia podczas skalowania automatycznego tej usługi sieci Web. Wartość domyślna to 10.

--autoscale-min-replicas --mi

Minimalna liczba kontenerów do użycia podczas skalowania automatycznego tej usługi sieci Web. Wartość domyślna to 1.

--base-image --bi

Obraz niestandardowy, który ma być używany jako obraz podstawowy. Jeśli nie podano obrazu podstawowego, obraz podstawowy będzie używany na podstawie danego parametru środowiska uruchomieniowego.

--base-image-registry --ir

Rejestr obrazów zawierający obraz podstawowy.

--cc --cpu-cores

Liczba rdzeni procesora cpu do przydzielenia dla tej usługi sieci Web. Może to być liczba dziesiętna. Wartość domyślna to 0.1.

--ccl --cpu-cores-limit

Maksymalna liczba rdzeni procesora CPU, z których może korzystać ta usługa sieci Web. Może to być liczba dziesiętna.

--cf --conda-file

Ścieżka do pliku lokalnego zawierającego definicję środowiska conda do użycia dla obrazu.

--collect-model-data --md

Określa, czy włączyć zbieranie danych modelu dla tej usługi sieci Web. Wartość domyślna to False.

--compute-target --ct

Nazwa docelowego obiektu obliczeniowego. Dotyczy tylko wdrażania w usłudze AKS.

--compute-type --cp

Typ obliczeniowy usługi do wdrożenia.

--cuda-version --cv

Wersja interfejsu CUDA do zainstalowania dla obrazów, które wymagają obsługi procesora GPU. Obraz procesora GPU musi być używany w usługach platformy Microsoft Azure, takich jak Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines i Azure Kubernetes Service. Obsługiwane wersje to 9.0, 9.1 i 10.0. Jeśli ustawiono wartość "enable_gpu", wartość domyślna to "9.1".

--dc --deploy-config-file

Ścieżka do pliku JSON lub YAML zawierającego metadane wdrożenia.

--description

Opis wdrożonej usługi.

--dn --dns-name-label

Nazwa DNS dla tej usługi sieci Web.

--ds --extra-docker-file-steps

Ścieżka do pliku lokalnego zawierającego dodatkowe kroki platformy Docker do uruchomienia podczas konfigurowania obrazu.

--ed --environment-directory

Katalog dla środowiska usługi Azure Machine Learning na potrzeby wdrożenia. Jest to ta sama ścieżka katalogu, co w poleceniu "az ml environment scaffold".

--eg --enable-gpu

Czy włączyć obsługę procesora GPU na obrazie. Obraz procesora GPU musi być używany w usługach platformy Microsoft Azure, takich jak Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines i Azure Kubernetes Service. Wartość domyślna to False.

--entry-script --es

Ścieżka do pliku lokalnego zawierającego kod do uruchomienia dla usługi (ścieżka względna z source_directory, jeśli został podany).

--environment-name -e

Nazwa środowiska usługi Azure Machine Learning na potrzeby wdrożenia.

--environment-version --ev

Wersja istniejącego środowiska usługi Azure Machine Learning na potrzeby wdrożenia.

--failure-threshold --ft

Po uruchomieniu zasobnika i niepowodzeniu sondy aktualności platforma Kubernetes spróbuje użyć wartości progowej --failure-threshold przed rezygnacją. Wartość domyślna to 3. Wartość minimalna to 1.

--gb --memory-gb

Ilość pamięci (w GB) do przydzielenia dla tej usługi sieci Web. Może to być liczba dziesiętna.

--gbl --memory-gb-limit

Maksymalna ilość pamięci (w GB) dozwolonej przez tę usługę sieci Web. Może to być liczba dziesiętna.

--gc --gpu-cores

Liczba rdzeni procesora GPU do przydzielenia dla tej usługi sieci Web. Wartość domyślna to 1.

--ic --inference-config-file

Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.

--id --initial-delay-seconds

Liczba sekund po uruchomieniu kontenera przed zainicjowanym sondami aktualności. Wartość domyślna to 310.

--key-name

Nazwa klucza dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla usługi ACI.

--key-version

Wersja klucza dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla usługi ACI.

--kp --primary-key

Podstawowy klucz uwierzytelniania używany dla tej usługi sieci Web.

--ks --secondary-key

Pomocniczy klucz uwierzytelniania do użycia dla tej usługi sieci Web.

--lo --location

Region świadczenia usługi Azure do wdrożenia tej usługi internetowej. Jeśli nie określono lokalizacji obszaru roboczego, zostanie użyta. Więcej szczegółów na temat dostępnych regionów można znaleźć tutaj: https://azure.microsoft.com/en-us/global-infrastructure/services/?regions=all& products=container-instances.

--max-request-wait-time --mr

Maksymalny czas, przez jaki żądanie pozostanie w kolejce (w milisekundach) przed zwróceniem błędu 503. Wartość domyślna to 500.

--model -m

Identyfikator modelu do wdrożenia. Można określić wiele modeli z dodatkowymi argumentami -m. Najpierw należy zarejestrować modele.

wartość domyślna: []
--model-metadata-file -f

Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można udostępnić przy użyciu wielu parametrów -f.

wartość domyślna: []
--namespace

Przestrzeń nazw kubernetes, w której ma zostać wdrożona usługa: maksymalnie 63 małe litery alfanumeryczne ('a'-'z', '0'-'9') i łącznik ('-'). Pierwsze i ostatnie znaki nie mogą być łącznikami. Dotyczy tylko wdrażania w usłudze AKS.

--no-wait

Flaga, aby nie czekać na wywołania asynchroniczne.

--nr --num-replicas

Liczba kontenerów do przydzielenia dla tej usługi sieci Web. Nie, jeśli ten parametr nie jest ustawiony, autoskalator jest domyślnie włączony.

--overwrite

Zastąp istniejącą usługę, jeśli wystąpi konflikt nazw.

--path

Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.

--period-seconds --ps

Jak często (w sekundach) wykonać sondę liveness. Wartość domyślna to 10 sekund. Wartość minimalna to 1.

--pi --profile-input

Ścieżka do pliku JSON zawierającego wyniki profilowania.

--po --port

Port lokalny, na którym można uwidocznić punkt końcowy HTTP usługi.

--property

Właściwość klucz/wartość do dodania (e.g. key=value). Można określić wiele właściwości z wieloma opcjami --property.

wartość domyślna: []
--replica-max-concurrent-requests --rm

Liczba maksymalnej liczby współbieżnych żądań na węzeł w celu umożliwienia tej usługi sieci Web. Wartość domyślna to 1.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--rt --runtime

Którego środowiska uruchomieniowego należy użyć na potrzeby obrazu. Bieżące obsługiwane środowiska uruchomieniowe to "spark-py" i "python"spark-py|python|python-slim.

--sc --ssl-cname

Nazwa cname dla , jeśli protokół SSL jest włączony.

--scoring-timeout-ms --tm

Limit czasu wymuszany dla wywołań oceniania do tej usługi sieci Web. Wartość domyślna to 60000.

--sd --source-directory

Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.

--se --ssl-enabled

Określa, czy włączyć protokół SSL dla tej usługi sieci Web. Wartość domyślna to False.

--sk --ssl-key-pem-file

Plik klucza wymagany w przypadku włączenia protokołu SSL.

--sp --ssl-cert-pem-file

Plik certyfikatu wymagany w przypadku włączenia protokołu SSL.

--st --success-threshold

Minimalna liczba kolejnych sukcesów sondy liveness, która ma zostać uznana za pomyślną po niepowieść. Wartość domyślna to 1. Wartość minimalna to 1.

--subnet-name

Nazwa podsieci wewnątrz sieci wirtualnej.

--subscription-id

Określa identyfikator subskrypcji.

--tag

Tag klucz/wartość do dodania (e.g. key=value). Można określić wiele tagów z wieloma opcjami --tag.

wartość domyślna: []
--timeout-seconds --ts

Liczba sekund, po których upłynął limit czasu sondy liveness. Wartość domyślna to 2 sekundy. Wartość minimalna to 1.

--token-auth-enabled

Określa, czy włączyć uwierzytelnianie tokenu dla tej usługi sieci Web. Ignorowane, jeśli nie jest wdrażane w usłudze AKS. Wartość domyślna to False.

--tp --traffic-percentile

Ilość ruchu, który pobiera wersja w punkcie końcowym. Może to być liczba dziesiętna. Wartość domyślna to 0.

--vault-base-url

Podstawowy adres URL magazynu dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla usługi ACI.

--version-name --vn

Nazwa wersji w punkcie końcowym. Wartość domyślna to nazwa punktu końcowego dla pierwszej wersji.

--vnet-name

Nazwa sieci wirtualnej.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az ml model download

Pobierz model z obszaru roboczego.

az ml model download --model-id
                     --target-dir
                     [--overwrite]
                     [--path]
                     [--resource-group]
                     [--subscription-id]
                     [--workspace-name]
                     [-v]

Parametry wymagane

--model-id -i

Identyfikator modelu.

--target-dir -t

Katalog docelowy do pobrania pliku modelu.

Parametry opcjonalne

--overwrite

Zastąp, jeśli ten sam plik o tej samej nazwie istnieje w katalogu docelowym.

--path

Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego zawierającego model do pokazania.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az ml model list

Wyświetlanie listy modeli w obszarze roboczym.

az ml model list [--dataset-id]
                 [--latest]
                 [--model-name]
                 [--path]
                 [--property]
                 [--resource-group]
                 [--run-id]
                 [--subscription-id]
                 [--tag]
                 [--workspace-name]
                 [-v]

Parametry opcjonalne

--dataset-id

Jeśli zostanie podany, pokaże tylko modele z określonym identyfikatorem zestawu danych.

--latest -l

Jeśli zostanie podana, zwróci tylko modele z najnowszą wersją.

--model-name -n

Opcjonalna nazwa modelu do filtrowania listy według.

--path

Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.

--property

Właściwość klucz/wartość do dodania (e.g. key=value). Można określić wiele właściwości z wieloma opcjami --property.

wartość domyślna: []
--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--run-id

Jeśli zostanie podany, pokaże tylko modele z określonym identyfikatorem przebiegu.

--subscription-id

Określa identyfikator subskrypcji.

--tag

Tag klucz/wartość do dodania (e.g. key=value). Można określić wiele tagów z wieloma opcjami --tag.

wartość domyślna: []
--workspace-name -w

Nazwa obszaru roboczego zawierającego modele do wyświetlenia.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az ml model package

Spakuj model w obszarze roboczym.

az ml model package [--cf]
                    [--ed]
                    [--entry-script]
                    [--environment-name]
                    [--environment-version]
                    [--ic]
                    [--il]
                    [--image-name]
                    [--model]
                    [--model-metadata-file]
                    [--no-wait]
                    [--output-path]
                    [--path]
                    [--resource-group]
                    [--rt]
                    [--sd]
                    [--subscription-id]
                    [--workspace-name]
                    [-v]

Parametry opcjonalne

--cf --conda-file

Ścieżka do pliku lokalnego zawierającego definicję środowiska conda do użycia dla pakietu.

--ed --environment-directory

Katalog dla środowiska Azure Machine Learning Environment do tworzenia pakietów. Jest to ta sama ścieżka katalogu, co w poleceniu "az ml environment scaffold".

--entry-script --es

Ścieżka do pliku lokalnego zawierającego kod do uruchomienia dla usługi (ścieżka względna z source_directory, jeśli został podany).

--environment-name -e

Nazwa środowiska Usługi Azure Machine Learning do tworzenia pakietów.

--environment-version --ev

Wersja istniejącego środowiska usługi Azure Machine Learning na potrzeby tworzenia pakietów.

--ic --inference-config-file

Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.

--il --image-label

Etykieta, aby nadać utworzony obraz pakietu.

--image-name --in

Nazwa, aby nadać skompilowany obraz pakietu.

--model -m

Identyfikator modelu do spakowania. Można określić wiele modeli z dodatkowymi argumentami -m. Najpierw należy zarejestrować modele.

wartość domyślna: []
--model-metadata-file -f

Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można udostępnić przy użyciu wielu parametrów -f.

wartość domyślna: []
--no-wait

Flaga, aby nie czekać na wywołania asynchroniczne.

--output-path

Ścieżka wyjściowa kontekstu platformy Docker. Jeśli zostanie przekazana ścieżka wyjściowa, zamiast tworzyć obraz w usłudze ACR obszaru roboczego, plik dockerfile i wymagany kontekst kompilacji zostaną zapisane w tej ścieżce.

--path

Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--rt --runtime

Którego środowiska uruchomieniowego należy użyć dla pakietu. Bieżące obsługiwane środowiska uruchomieniowe to "spark-py" i "python"spark-py|python|python-slim.

--sd --source-directory

Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az ml model profile

Modele profilów w obszarze roboczym.

az ml model profile --name
                    [--base-image]
                    [--base-image-registry]
                    [--cc]
                    [--cf]
                    [--description]
                    [--ed]
                    [--entry-script]
                    [--environment-name]
                    [--environment-version]
                    [--gb]
                    [--ic]
                    [--idi]
                    [--model]
                    [--model-metadata-file]
                    [--output-metadata-file]
                    [--resource-group]
                    [--sd]
                    [--subscription-id]
                    [--workspace-name]
                    [-v]

Parametry wymagane

--name -n

Nazwa profilu modelu.

Parametry opcjonalne

--base-image --bi

Obraz niestandardowy, który ma być używany jako obraz podstawowy. Jeśli nie podano obrazu podstawowego, obraz podstawowy będzie używany na podstawie danego parametru środowiska uruchomieniowego.

--base-image-registry --ir

Rejestr obrazów zawierający obraz podstawowy.

--cc --cpu-cores

Podwójna wartość maksymalnego użycia procesora CPU podczas profilowania.

--cf --conda-file

Ścieżka do pliku lokalnego zawierającego definicję środowiska conda do użycia dla obrazu.

--description

Opis profilu modelu.

--ed --environment-directory

Katalog dla środowiska usługi Azure Machine Learning na potrzeby wdrożenia. Jest to ta sama ścieżka katalogu, co w poleceniu "az ml environment scaffold".

--entry-script --es

Ścieżka do pliku lokalnego zawierającego kod do uruchomienia dla usługi (ścieżka względna z source_directory, jeśli został podany).

--environment-name -e

Nazwa środowiska usługi Azure Machine Learning na potrzeby wdrożenia.

--environment-version --ev

Wersja istniejącego środowiska usługi Azure Machine Learning na potrzeby wdrożenia.

--gb --memory-in-gb

Podwójna wartość maksymalnej pamięci do użycia podczas profilowania.

--ic --inference-config-file

Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.

--idi --input-dataset-id

Identyfikator tabelarycznego zestawu danych, który ma być używany jako dane wejściowe dla profilu.

--model -m

Identyfikator modelu do wdrożenia. Można określić wiele modeli z dodatkowymi argumentami -m. Najpierw należy zarejestrować modele.

wartość domyślna: []
--model-metadata-file -f

Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można udostępnić przy użyciu wielu parametrów -f.

wartość domyślna: []
--output-metadata-file -t

Ścieżka do pliku JSON, w którym będą zapisywane metadane wyników profilu. Używany jako dane wejściowe na potrzeby wdrażania modelu.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--sd --source-directory

Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az ml model register

Rejestrowanie modelu w obszarze roboczym.

az ml model register --name
                     [--asset-path]
                     [--cc]
                     [--description]
                     [--experiment-name]
                     [--gb]
                     [--gc]
                     [--model-framework]
                     [--model-framework-version]
                     [--model-path]
                     [--output-metadata-file]
                     [--path]
                     [--property]
                     [--resource-group]
                     [--run-id]
                     [--run-metadata-file]
                     [--sample-input-dataset-id]
                     [--sample-output-dataset-id]
                     [--subscription-id]
                     [--tag]
                     [--workspace-name]
                     [-v]

Parametry wymagane

--name -n

Nazwa modelu do zarejestrowania.

Parametry opcjonalne

--asset-path

Ścieżka chmury, w której jest uruchamiany experiement, przechowuje plik modelu.

--cc --cpu-cores

Domyślna liczba rdzeni procesora CPU do przydzielenia dla tego modelu. Może to być liczba dziesiętna.

--description -d

Opis modelu.

--experiment-name

Nazwa eksperymentu.

--gb --memory-gb

Domyślna ilość pamięci (w GB) do przydzielenia dla tego modelu. Może to być liczba dziesiętna.

--gc --gpu-cores

Domyślna liczba procesorów GPU do przydzielenia dla tego modelu.

--model-framework

Struktura modelu do zarejestrowania. Obecnie obsługiwane platformy: TensorFlow, ScikitLearn, Onnx, Custom, Multi.

--model-framework-version

Wersja struktury modelu do zarejestrowania (np. 1.0.0, 2.4.1).

--model-path -p

Pełna ścieżka pliku modelu do zarejestrowania.

--output-metadata-file -t

Ścieżka do pliku JSON, w którym będą zapisywane metadane rejestracji modelu. Używany jako dane wejściowe na potrzeby wdrażania modelu.

--path

Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.

--property

Właściwość klucz/wartość do dodania (e.g. key=value). Można określić wiele właściwości z wieloma opcjami --property.

wartość domyślna: []
--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--run-id -r

Identyfikator przebiegu eksperymentu, z którego jest rejestrowany model.

--run-metadata-file -f

Ścieżka do pliku JSON zawierającego metadane przebiegu experiement.

--sample-input-dataset-id

Identyfikator przykładowego wejściowego zestawu danych.

--sample-output-dataset-id

Identyfikator przykładowego wyjściowego zestawu danych.

--subscription-id

Określa identyfikator subskrypcji.

--tag

Tag klucz/wartość do dodania (e.g. key=value). Można określić wiele tagów z wieloma opcjami --tag.

wartość domyślna: []
--workspace-name -w

Nazwa obszaru roboczego do zarejestrowania tego modelu.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az ml model show

Pokaż model w obszarze roboczym.

az ml model show [--model-id]
                 [--model-name]
                 [--path]
                 [--resource-group]
                 [--run-id]
                 [--subscription-id]
                 [--version]
                 [--workspace-name]
                 [-v]

Parametry opcjonalne

--model-id -i

Identyfikator modelu do pokazania.

--model-name -n

Nazwa modelu do pokazania.

--path

Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--run-id

Jeśli zostanie podany, pokaże tylko modele z określonym identyfikatorem przebiegu.

--subscription-id

Określa identyfikator subskrypcji.

--version

Jeśli zostanie podana, pokaże tylko modele o określonej nazwie i wersji.

--workspace-name -w

Nazwa obszaru roboczego zawierającego model do pokazania.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.

az ml model update

Aktualizowanie modelu w obszarze roboczym.

az ml model update --model-id
                   [--add-property]
                   [--add-tag]
                   [--cc]
                   [--description]
                   [--gb]
                   [--gc]
                   [--path]
                   [--remove-tag]
                   [--resource-group]
                   [--sample-input-dataset-id]
                   [--sample-output-dataset-id]
                   [--subscription-id]
                   [--workspace-name]
                   [-v]

Parametry wymagane

--model-id -i

Identyfikator modelu.

Parametry opcjonalne

--add-property

Właściwość klucz/wartość do dodania (e.g. key=value). Można określić wiele właściwości z wieloma opcjami --add-property.

wartość domyślna: []
--add-tag

Tag klucz/wartość do dodania (e.g. key=value). Można określić wiele tagów z wieloma opcjami --add-tag.

wartość domyślna: []
--cc --cpu-cores

Domyślna liczba rdzeni procesora CPU do przydzielenia dla tego modelu. Może to być liczba dziesiętna.

--description

Opis aktualizowania modelu za pomocą polecenia . Zastąpi bieżący opis.

--gb --memory-gb

Domyślna ilość pamięci (w GB) do przydzielenia dla tego modelu. Może to być liczba dziesiętna.

--gc --gpu-cores

Domyślna liczba procesorów GPU do przydzielenia dla tego modelu.

--path

Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.

--remove-tag

Klucz tagu do usunięcia. Można określić wiele tagów z wieloma opcjami --remove-tag.

wartość domyślna: []
--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--sample-input-dataset-id

Identyfikator przykładowego wejściowego zestawu danych.

--sample-output-dataset-id

Identyfikator przykładowego wyjściowego zestawu danych.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

Parametry globalne
--debug

Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.

--help -h

Pokaż ten komunikat pomocy i zakończ pracę.

--only-show-errors

Pokaż tylko błędy, pomijając ostrzeżenia.

--output -o

Format danych wyjściowych.

akceptowane wartości: json, jsonc, none, table, tsv, yaml, yamlc
wartość domyślna: json
--query

Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.

--subscription

Nazwa lub identyfikator subskrypcji. Subskrypcję domyślną można skonfigurować przy użyciu polecenia az account set -s NAME_OR_ID.

--verbose

Zwiększ szczegółowość rejestrowania. Użyj --debuguj, aby uzyskać pełne dzienniki debugowania.